卷积

比Transformer强?中国科学家提出Translution统一自注意力与卷积

深度学习领域正迎来一次可能改变游戏规则的理论突破。浙江大学和新加坡国立大学的研究团队近日提出了名为"Translution"的全新神经网络基础操作,成功实现了自注意力机制与卷积操作的有机统一,为解决当前大模型发展瓶颈提供了全新思路。这项发表在最新研究论文中的成

transformer tra 卷积 translution 2025-10-23 19:02  2

顶刊新发!上海交大提出PreCM:即插即用的旋转等变卷积,显著提升分割模型鲁棒性

本文针对语义分割模型因图像方向任意性导致性能下降的难题,提出了一种即插即用的基于填充的旋转等变卷积模式(PreCM)。该模块基于严谨的群论推导,能直接替换现有网络中的卷积层,使其获得严格的旋转等变性,从而显著提升模型在旋转干扰下的鲁棒性与分割精度。>>更多资讯

模型 数据集 卷积 coovally precm 2025-10-16 11:09  3

Riesz位势下的函数表示

证明的核心是 **“利用基本解的 Dirac 函数性质,结合分部积分将 Laplace 算子的作用转化为梯度的卷积”**,将函数 u 表示为其梯度与基本解梯度的卷积,为后续 Sobolev 嵌入或 Besov 正则性分析提供 “积分表示” 的工具。

函数 卷积 riesz laplace dirac函数 2025-09-15 09:57  6

CVPR 2025 | 频率动态卷积(FDConv):以固定参数预算实现频率域自适应,显著提升视觉任务性能

本文提出频率动态卷积(FDConv),通过在傅里叶域构建频率多样化权重,以固定参数预算显著提升模型频率适应性。该方法在目标检测、分割等任务中性能卓越,仅增加3.6M参数即可优于现有动态卷积方法,且易于集成至多种网络架构。>>更多资讯可加入CV技术群获取了解哦

卷积 cvpr 频率域 动态卷积 fdconv 2025-09-11 09:35  4